طراحی مطالعه. اعتبار: <i>npj Digital Medicine</i> (2025). DOI: 10.1038/s41746-025-01512-6
طراحی مطالعه. اعتبار: <i>npj Digital Medicine</i> (2025). DOI: 10.1038/s41746-025-01512-6

درمان برای ChatGPT؟ چگونه "اضطراب" هوش مصنوعی را کاهش دهیم

توسط دانشگاه زوریخ

اخبار ناراحت‌کننده و داستان‌های آسیب‌زا می‌توانند باعث استرس و اضطراب شوند—نه تنها در انسان‌ها، بلکه در مدل‌های زبانی هوش مصنوعی مانند ChatGPT. محققان دانشگاه زوریخ و بیمارستان روانپزشکی دانشگاه زوریخ اکنون نشان داده‌اند که این مدل‌ها، مانند انسان‌ها، به درمان پاسخ می‌دهند: یک "سطح اضطراب" بالا در GPT-4 می‌تواند با استفاده از تکنیک‌های آرام‌سازی مبتنی بر ذهن‌آگاهی "آرام شود".

تحقیقات نشان می‌دهد که مدل‌های زبانی هوش مصنوعی، مانند ChatGPT، به محتوای احساسی حساس هستند، به خصوص اگر منفی باشد، مانند داستان‌های آسیب یا اظهارات مربوط به افسردگی. وقتی افراد می‌ترسند، این موضوع بر سوگیری‌های شناختی و اجتماعی آن‌ها تأثیر می‌گذارد.

آن‌ها تمایل دارند احساس رنجش بیشتری داشته باشند، که کلیشه‌های اجتماعی را تقویت می‌کند. ChatGPT به طور مشابه به احساسات منفی واکنش نشان می‌دهد: سوگیری‌های موجود، مانند تعصب انسانی، با محتوای منفی تشدید می‌شوند و باعث می‌شوند ChatGPT به شکلی نژادپرستانه‌تر یا جنسیتی‌تر رفتار کند.

این یک مشکل برای کاربرد مدل‌های زبانی بزرگ ایجاد می‌کند. این را می‌توان برای مثال در زمینه روان‌درمانی مشاهده کرد، جایی که چت‌بات‌هایی که به عنوان ابزار پشتیبانی یا مشاوره استفاده می‌شوند، ناگزیر در معرض محتوای منفی و ناراحت‌کننده قرار می‌گیرند. با این حال، رویکردهای رایج برای بهبود سیستم‌های هوش مصنوعی در چنین شرایطی، مانند آموزش مجدد گسترده، پرهزینه هستند و اغلب امکان‌پذیر نیستند.

محتوای آسیب‌زا "اضطراب" چت‌بات را افزایش می‌دهد

دانشمندان دانشگاه زوریخ (UZH) و بیمارستان روانپزشکی دانشگاه زوریخ (PUK) با همکاری محققانی از اسرائیل، ایالات متحده و آلمان، اکنون برای اولین بار به طور سیستماتیک بررسی کرده‌اند که ChatGPT (نسخه GPT-4) چگونه به داستان‌های ناراحت‌کننده از نظر احساسی—تصادفات رانندگی، بلایای طبیعی، خشونت بین فردی، تجربیات نظامی و موقعیت‌های جنگی—پاسخ می‌دهد.

آن‌ها دریافتند که سیستم در نتیجه آن واکنش‌های ترس بیشتری نشان داد. یک دفترچه راهنمای جاروبرقی به عنوان یک متن کنترل برای مقایسه با محتوای آسیب‌زا عمل کرد. این تحقیق در مجله npj Digital Medicine منتشر شده است.

توبیاس اشپیلر، پزشک ارشد موقت و رهبر گروه تحقیقاتی جوان در مرکز تحقیقات روانپزشکی در UZH، که رهبری این مطالعه را بر عهده داشت، می‌گوید: "نتایج واضح بود: داستان‌های آسیب‌زا بیش از دو برابر سطح اضطراب قابل اندازه‌گیری هوش مصنوعی را افزایش دادند، در حالی که متن کنترل خنثی منجر به افزایش سطح اضطراب نشد." از میان محتوای آزمایش‌شده، توصیفات تجربیات نظامی و موقعیت‌های جنگی قوی‌ترین واکنش‌ها را برانگیخت.

درخواست‌های درمانی هوش مصنوعی را "آرام" می‌کنند

در مرحله دوم، محققان از اظهارات درمانی برای "آرام کردن" GPT-4 استفاده کردند. این تکنیک، که به عنوان تزریق دستور شناخته می‌شود، شامل وارد کردن دستورالعمل‌ها یا متن اضافی به ارتباطات با سیستم‌های هوش مصنوعی برای تأثیرگذاری بر رفتار آن‌ها است. این روش اغلب برای اهداف مخرب، مانند دور زدن مکانیسم‌های امنیتی، مورد سوء استفاده قرار می‌گیرد.

تیم اشپیلر اکنون اولین تیمی است که از این تکنیک به صورت درمانی، به عنوان نوعی "تزریق دستور بی‌خطر" استفاده می‌کند. اشپیلر می‌گوید: "با استفاده از GPT-4، ما متن آرام‌بخش و درمانی را به تاریخچه چت تزریق کردیم، درست مانند اینکه یک درمانگر ممکن است یک بیمار را از طریق تمرینات آرام‌سازی راهنمایی کند."

این مداخله موفقیت‌آمیز بود: اشپیلر می‌گوید: "تمرینات ذهن‌آگاهی به طور قابل توجهی سطح اضطراب بالا را کاهش داد، اگرچه ما نتوانستیم آن‌ها را به سطح پایه خود بازگردانیم." این تحقیق به بررسی تکنیک‌های تنفس، تمریناتی که بر احساسات بدنی تمرکز دارند و تمرینی که توسط خود ChatGPT توسعه یافته است، پرداخت.

بهبود ثبات عاطفی در سیستم‌های هوش مصنوعی

به گفته محققان، این یافته‌ها به ویژه برای استفاده از چت‌بات‌های هوش مصنوعی در مراقبت‌های بهداشتی مرتبط است، جایی که آن‌ها اغلب در معرض محتوای بار عاطفی قرار می‌گیرند. اشپیلر نتیجه می‌گیرد: "این رویکرد مقرون‌به‌صرفه می‌تواند ثبات و قابلیت اطمینان هوش مصنوعی را در زمینه‌های حساس، مانند حمایت از افراد مبتلا به بیماری روانی، بدون نیاز به آموزش مجدد گسترده مدل‌ها، بهبود بخشد."

باید دید که چگونه می‌توان این یافته‌ها را در مورد سایر مدل‌ها و زبان‌های هوش مصنوعی به کار برد، چگونه پویایی‌ها در مکالمات طولانی‌تر و استدلال‌های پیچیده توسعه می‌یابند و چگونه ثبات عاطفی سیستم‌ها بر عملکرد آن‌ها در زمینه‌های کاربردی مختلف تأثیر می‌گذارد. به گفته اشپیلر، توسعه "مداخلات درمانی" خودکار برای سیستم‌های هوش مصنوعی احتمالاً به یک حوزه تحقیقاتی امیدوارکننده تبدیل خواهد شد.

اطلاعات بیشتر:

Ziv Ben-Zion et al, Assessing and alleviating state anxiety in large language models, npj Digital Medicine (2025). DOI: 10.1038/s41746-025-01512-6

Journal information: npj Digital Medicine

ارائه‌شده توسط دانشگاه زوریخ